Komunikacja z chatbotem
Największą rewolucją we współczesnej komunikacji stały się kontakty ze światem programów i maszyn, możliwe dzięki wprowadzeniu chatbotów, czyli wirtualnych programów wykonujących czynności kojarzone z działaniami ludzi. Zazwyczaj określa się je mianem "agentów". Są one znacznie bardziej autonomiczne niż programy asystujące, które jedynie towarzyszą ludziom w sieci. Niektóre z tych programów posługują się głosem, chociaż ze względu na ciągle jeszcze niską jakość syntezatorów mowy, aspekt ten nie jest rozpowszechniony. Zadania agentów mają różny charakter – coraz częściej spotykamy boty w oprogramowaniu banków lub bibliotek, gdzie pośredniczą one w pierwszym kontakcie z klientami, kierując ich na właściwe miejsce i przekazując podstawowe informacje. Programy projektują trasy podróży, udzielają konsultacji, przygotowują prognozy pogody, piszą artykuły prasowe, a nawet przeprowadzają rekrutację pracowników. Ciekawe są też przypadki chatbotów wykorzystywanych w psychoterapii. Problem ten stał się obecnie przedmiotem wielu badań [1], [2], [3], [4]. Nie sposób w tym miejscu przedstawić historię wszystkich istotnych chatbotów, toteż przypomnę tylko kilka szczególnie znanych.
W 1966 roku Joseph Weizenbaum, profesor Massachusetts Institute of Technology zaprojektował program noszący nazwę ELIZA. Był to stosunkowo prosty program, który prowadził terapeutyczne rozmowy z ludźmi. Bardzo ważnym aspektem skryptu tego chatbota stała się umiejętność przekształcania frazy wpisanej przez człowieka i odnajdywania w niej słów kluczy, używanych potem w konstruowaniu odpowiedzi. Tak zmodyfikowane i odzwierciedlone treści dawały odbiorcy poczucie zrozumienia jego przekazu. Weizenbaum informował wszystkich o charakterze i ograniczeniach programu. Mimo to, wiele osób rozmawiających z ELIZĄ miało jak najlepszą opinię na temat udzielanej przez nią "pomocy". Rozmówcy czuli się wysłuchani i w tym upatrywali największą wartość swej „terapii”. Co szczególnie interesujące, odbioru ELIZY nie determinowało jej żeńskie imię, gdyż wiele osób odbierało ją jako neutralną postać, a niektóre pacjentki przenosiły na nią nawet postać swojego ojca.
W 1995 roku Richard Wallace rozpoczął pracę nad systemem A.L.I.C.E. (Artificial Linguistic Internet Computer Entity), dla którego ELIZA była inspiracją (https://alicebot.org/). Wallace doszedł do wniosku, że większość codziennej wymiany zdań opiera się na określonym zestawie bardzo prostych sformułowań, dlatego przygotował początkowo 40 000 wyrażeń, które uznał za reprezentatywne dla podstawowej komunikacji [5]. Taki zasób okazał się wystarczający, by wciągnąć człowieka do rozmowy. Działanie A.L.I.C.E. opiera się nie tylko na odzwierciedleniu, jak w przypadku ELIZY, gdyż nowy chatbot ma również własny repertuar niekonwencjonalnych, a nawet intrygujących fraz. Wprawdzie program ten nie został przeznaczony do terapii, jednak jego błyskotliwe reakcje dają do myślenia i inspirują uczestników rozmowy. Spike Jonze przyznał, że właśnie ten system podsunął mu pomysł nakręcenia filmu "Her" ("Ona") z 2013 roku. Program A.L.I.C.E. ciągle się uczy i trzykrotnie otrzymał Nagrodę Loebnera, przyznawaną chatbotom, które prowadzą rozmowę w najbardziej „ludzki” sposób.
Chatbot Ellie został zaprojektowany przez inżynierów DARPA (Defense Advanced Research Projects Agency), czyli Agencji Zaawansowanych Projektów Badawczych w wyniku badań prowadzonych w 2009 roku w grupie pacjentów ze stresem pourazowym. Wcześniej \( 28\% \) badanych przyznało się do okłamywania pracowników służby zdrowia lub nieinformowania ich o problemach i wydarzeniach, które mogły mieć znaczący wpływ na przebieg ich choroby. Po skutecznych działaniach z weteranami, także w kontekście ich problemów seksualnych, chatbot Ellie został wdrożony do pracy z osobami chorymi na raka. Zadaniem algorytmu jest obserwacja 66 punktów na twarzy pacjenta, które pomagają zidentyfikować mikroekspresje, mogące świadczyć na przykład o stresie albo o kłamstwie. Program zwraca też uwagę na tempo mowy i tembr głosu, reagując stosownie do nich. Dzięki skrupulatnej analizie, jego interakcje są uznawane przez większość pacjentów za wyjątkowo adekwatne względem poruszanych przez nich problemów.
Celem aplikacji Woebot (https://woebothealth.com/) stało się wspieranie ludzi w depresji, a także innych chorobach psychicznych. Program nie tylko przeprowadza proste rozmowy, które mogą pomóc w pierwszym rozpoznaniu problemów, lecz także na co dzień wykazuje troskę o swoich odbiorców, na przykład pytając o to, jak się czują. Firma deklaruje, że „Ludzie mogą używać Woebota samodzielnie lub w połączeniu z tradycyjną rozmową, lub terapią medyczną, aby uzyskać niezawodne i pełne współczucia wsparcie, dokładnie wtedy, gdy tego najbardziej potrzebują”.
3 sierpnia 2011 roku w teście Turinga wziął udział Cleverbot Rollo Carpentera. W głosowaniu oddano 1334 głosy, z których \( 59,3\% \) uznało jego reakcje za ludzkie. Jak przypomina Aleksandra Przegalińska [6], ludzie uzyskują na ogół w takim teście \( 63,3\% \). 7 czerwca 2014 roku test Turinga zaliczył chatbot Eugene Goostman, symulujący osobowość trzynastolatka z Ukrainy, zaprojektowany przez Władimira Wiesiełowa, Jewgienija Demczenko i Siergieja Ulasena. W tym przypadku ważne znaczenie miało skrupulatne określenie "osobowości" programu, prowadzącego wiarygodne rozmowy z pozycji nastolatka, który nie wie jeszcze wszystkiego i może się mylić. W tym samym roku inny program, nazwany Samantha West i pełniący funkcję telemarketera, spierał się z rozmówcami, zaprzeczając, że jest chatbotem (https://newsroom.cisco.com/feature-content?type=webcontent&articleId=1833794).
Ludzie zazwyczaj dobrze oceniają komunikację z chatbotami i antropomorfizują je, uznając, że wreszcie znalazł się ktoś skupiony na swoim rozmówcy, słuchający go z uwagą, a nawet empatią, zamiast powszechnych nudy i rozproszenia. Jednocześnie fenomen interakcji z chatbotami pokazuje pewną słabość naszej kultury, w której coraz częściej zapomina się, że komunikowanie polega nie tylko na zrozumiałym przekazie treści, lecz także na relacji wyrażającej się w uważnym słuchaniu. Jak słusznie zauważa Sherry Turkle, tak wysoka ocena chatbotów może budzić również niepokój, ponieważ jedną z jej konsekwencji jest znamienna symetria – personalizując program, depersonalizujemy samych siebie [7].
Zadanie 1:
Treść zadania:
Przeprowadź rozmowę z wybranym chatbotem. Jakie są twoje odczucia?Bibliografia
1. Przegalińska, A. K.: Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję?, Universitas, Kraków 2016.2. Przegalińska-Skierkowska, A.: Konflikt generacyjny wśród botów: między ELIZĄ, Cleverbotem a Tay. [W:] Kuś, V. (Red.), Live’bot, dostęp:07.09.2020
3. Przegalińska, A., Oksanowicz, P.: Sztuczna inteligencja: nieludzka, arcyludzka. Fenomen świata nowych technologii, Wydawnictwo Znak, Kraków 2020.
4. Ptaszek, G.: Edukacja medialna 3.0. Krytyczne rozumienie mediów w dobie Big Data i algorytmizacji, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2019, dostęp:07.09.2020
5. Aamoth, D.: Interview with Eugene Goostman, the Fake Kid Who Passed the Turing Test, dostęp:15.09.2020
6. Przegalińska-Skierkowska, A.: Konflikt generacyjny wśród botów: między ELIZĄ, Cleverbotem a Tay. [W:] V. Kuś (Red.), Live’bot [s. 11], dostęp:17.09.2020
7. Turkle, S.: Samotni razem. Dlaczego oczekujemy więcej od zdobyczy techniki, a mniej od siebie nawzajem?, przeł. Cierpisz, M., Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2013, s. 212-214.